讓模型自己從資料中找出規則的方式,也會帶來一些挑戰,特別是「幻覺」現象(hallucination) 和模型的「不可解釋性」(Unexplainability) 問題。
1.幻覺(Hallucination):機器學習模型,特別是生成式模型(如ChatGPT、生成對抗網路),有時會在輸出中創造出錯誤的、不真實的內容,這被稱為「幻覺」。這是因為模型根據資料來預測最有可能的答案或生成內容,但並不總是基於真實的世界知識,尤其當訓練資料中包含錯誤或偏差時,模型可能會產生虛假的結論。
2.難以解釋的黑箱問題(Black-box problem):許多機器學習模型,尤其是深度神經網路,具備數百萬甚至數十億個參數(GPT-3的參數量為1750億),這使得它們在運作時無法被人類輕易理解。雖然模型可以在資料中學習到複雜的模式和隱性知識,但這些學習的過程往往不透明,人們難以解釋模型為何做出某個特定的決策或輸出,這就是所謂的「黑箱」問題。
這些挑戰使得機器學習在某些應用領域中的可信度降低,特別是在需要高度準確性和解釋性的場景中,例如醫療診斷、法律判決或金融決策。